播客應用Overcast開發者Marco Arment爲降低AI服務成本,自建48臺Mac mini服務器集羣。他利用Apple Silicon芯片的高能效和統一內存優勢,運行本地語音轉錄,以替代昂貴的雲端AI服務。
Apple開放FastVLM視覺語言模型,可在搭載Apple Silicon芯片的Mac上體驗。該模型基於MLX框架構建,提供近乎即時的高分辨率圖像處理,視頻字幕處理速度提升85倍,體積縮小3倍以上,支持多平臺和瀏覽器直接使用。
蘋果MLX框架新增CUDA支持,開發者現可在Apple Silicon設備開發後導出至CUDA環境運行。此舉大幅降低開發成本,小型團隊無需前期購置昂貴Nvidia硬件。由GitHub開發者主導的該項目已併入MLX主分支,雖不支持Mac直接連接Nvidia顯卡運行,但開發測試階段可完全在蘋果設備完成。CUDA環境下性能顯著優於Mac,結合Nvidia硬件在AI領域的優勢,爲開發者提供更強算力支持。這一更新將提升開發靈活性,降低准入門檻。
蘋果MLX框架新增CUDA支持,開發者可在Mac上開發AI應用後無縫遷移至英偉達平臺。這一突破解決了以往MLX依賴Metal框架導致部署受限的問題,由開發者@zcbenz耗時數月完成代碼整合。新功能實現"代碼導出兼容性",讓開發者能以低成本Apple Silicon Mac開發,必要時再使用英偉達硬件部署,顯著降低開發門檻。此舉既保留Apple開發優勢,又拓展部署靈活性,有望推動MLX框架生態擴展。
桌面端的智能聊天助手
CoreNet 是一個用於訓練深度神經網絡的庫。
在Apple Silicon上原生使用MLX框架與數據對話
Marvis-AI
這是一個基於MLX框架優化的文本轉語音模型,從原始模型Marvis-AI/marvis-tts-100m-v0.2轉換而來,採用6位量化技術,專門為Apple Silicon硬件優化,提供高效的語音合成能力。
lmstudio-community
Qwen3-VL-2B-Thinking是由Qwen推出的視覺語言模型,基於2B參數規模,使用MLX進行8位量化,專門針對Apple Silicon芯片進行了優化。該模型支持圖像和文本的多模態理解與生成任務。
Qwen
Qwen3-VL-2B-Thinking是Qwen系列中最強大的視覺語言模型之一,採用GGUF格式權重,支持在CPU、NVIDIA GPU、Apple Silicon等設備上進行高效推理。該模型具備出色的多模態理解和推理能力,特別增強了視覺感知、空間理解和智能體交互功能。
mlx-community
這是MiniMax-M2模型的MLX格式轉換版本,使用mlx-lm 0.28.1從原始模型轉換而來,支持8位量化和分組大小為32的優化配置,專為Apple Silicon設備優化運行。
這是MiniMax-M2模型的MLX格式8位量化版本,使用mlx-lm 0.28.4從原始模型轉換而來,專為Apple Silicon設備優化運行。
Granite-4.0-H-1B-8bit 是 IBM Granite 系列的小型語言模型,專門針對 Apple Silicon 芯片優化,採用 8 位量化技術,參數量為 1B,具有高效推理和低資源消耗的特點。
MiniMax-M2-6bit 是 MiniMaxAI/MiniMax-M2 模型的 MLX 格式轉換版本,使用 mlx-lm 0.28.4 進行轉換,支持在 Apple Silicon 設備上高效運行。
MiniMax-M2-4bit 是使用 mlx-lm 工具從 MiniMaxAI/MiniMax-M2 轉換而來的 4 位量化版本,專門針對 Apple Silicon 芯片優化,提供高效的文本生成能力。
TheStageAI
TheWhisper-Large-V3是OpenAI Whisper Large V3模型的高性能微調版本,由TheStage AI針對多平臺(NVIDIA GPU和Apple Silicon)的即時、低延遲和低功耗語音轉文本推理進行了優化。
richardyoung
這是一個高性能的4位量化版本的Kimi K2 Instruct模型,專為使用MLX框架在Apple Silicon(M1/M2/M3/M4)Mac上運行而優化。該模型擁有6710億參數,支持128K上下文窗口,在質量和效率之間實現了出色的平衡,是大多數實際部署的理想選擇。
nightmedia
這是Qwen3-Next-80B-A3B-Instruct模型的MLX格式轉換版本,專為在Apple Silicon設備上高效運行而優化。該模型是一個800億參數的大型語言模型,支持文本生成任務,具有強大的對話和推理能力。
這是一個基於Qwen3-Coder-REAP-25B-A3B模型轉換的MLX格式版本,使用mlx-lm工具從原始模型轉換而來,專門針對Apple Silicon芯片優化,支持高效的文本生成任務。
基於GLM-4.5-Air模型使用REAP方法進行25%專家剪枝的優化版本,轉換為MLX格式以便在Apple Silicon設備上高效運行
這是Qwen3-VL-4B-Instruct模型的4位量化版本,專門針對Apple Silicon芯片優化,使用MLX框架轉換。該模型是一個視覺語言模型,支持圖像理解和多模態對話任務。
Qwen3-VL-8B-Instruct是由Qwen開發的視覺語言模型,經過MLX量化優化,專門針對Apple Silicon設備。該模型支持圖像和文本的多模態輸入,能夠理解和生成與圖像相關的文本內容。
SiddhJagani
這是OpenAI GPT-OSS-20B模型的MLX格式8位量化版本,使用mlx-lm 0.28.2轉換,專為Apple Silicon優化,提供高效的文本生成能力
這是IBM Granite-4.0-h-Tiny模型的4位量化版本,專為Apple Silicon優化,使用MLX框架進行高效推理。模型經過DWQ(動態權重量化)處理,在保持性能的同時顯著減小模型大小。
這是IBM Granite-4.0-H-Micro模型的MLX格式8位量化版本,專為Apple Silicon優化,提供高效的大語言模型推理能力。
abnormalmapstudio
這是 Qwen3-Omni-30B-A3B-Thinking 模型的 MLX 格式轉換版本,使用 mlx-lm 0.28.1 進行轉換,支持在 Apple Silicon 設備上高效運行。
這是一個基於Qwen3-Omni-30B-A3B-Instruct模型轉換的MLX格式版本,使用mlx-lm 0.28.1工具轉換,專為Apple Silicon優化,支持高效的文本生成任務。